AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
深度讨论 Gemini 3 :Google 王者回归,LLM 新一轮排位赛猜想|Best Ideas

深度讨论 Gemini 3 :Google 王者回归,LLM 新一轮排位赛猜想|Best Ideas

深度讨论 Gemini 3 :Google 王者回归,LLM 新一轮排位赛猜想|Best Ideas

最近两周的模型竞赛非常热闹:OpenAI 在 11 月 12 日发布 GPT-5.1,引入更强的推理深度与更高效的对话体验;Google 在 11 月 18 日发布 Gemini 3,全面强化多模态理解与复杂推理能力;Anthropic 在 11 月 24 日又发布了 Claude Opus 4.5,模型在专业文档处理、代码生成与长流程 agent 方面有显著提升。

来自主题: AI资讯
8787 点击    2025-11-28 09:27
Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

前 OpenAI 联合创始人、特斯拉 AI 总监 Andrej Karpathy 也一样。他在前几天发推,说自己「开始养成用 LLM 阅读一切的习惯」。Karpathy 在周六用氛围编程做了个新的项目,让四个最新的大模型组成一个 LLM 议会,给他做智囊团。

来自主题: AI资讯
10260 点击    2025-11-23 19:39
成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

CUDA 代码的性能对于当今的模型训练与推理至关重要,然而手动编写优化 CUDA Kernel 需要很高的知识门槛和时间成本。与此同时,近年来 LLM 在 Code 领域获得了诸多成功。

来自主题: AI技术研报
10214 点击    2025-11-18 10:06
下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务

下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务

下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务

多模态大语言模型(MLLM)在目标定位精度上被长期诟病,难以匹敌传统的基于坐标回归的检测器。近日,来自 IDEA 研究院的团队通过仅有 3B 参数的通用视觉感知模型 Rex-Omni,打破了这一僵局。

来自主题: AI技术研报
6695 点击    2025-11-14 10:18
跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

跨层压缩隐藏状态同时加速TTFT和压缩KV cache!

我们都知道 LLM 中存在结构化稀疏性,但其底层机制一直缺乏统一的理论解释。为什么模型越深,稀疏性越明显?为什么会出现所谓的「检索头」和「检索层」?

来自主题: AI技术研报
9745 点击    2025-11-13 15:19
IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

IEEE | LLM Agent的能力边界在哪?首篇「图智能体 (GLA)」综述为复杂系统构建统一蓝图

LLM Agent 正以前所未有的速度发展,从网页浏览、软件开发到具身控制,其强大的自主能力令人瞩目。然而,繁荣的背后也带来了研究的「碎片化」和能力的「天花板」:多数 Agent 在可靠规划、长期记忆、海量工具管理和多智能体协调等方面仍显稚嫩,整个领域仿佛一片广袤却缺乏地图的丛林。

来自主题: AI技术研报
8262 点击    2025-11-10 09:20
微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

众所周知,大型语言模型(LLM)的根本运作方式是预测下一个 token(词元),能够保证生成的连贯性和逻辑性,但这既是 LLM 强大能力的「灵魂」所在,也是其枷锁,将导致高昂的计算成本和响应延迟。 可

来自主题: AI技术研报
8034 点击    2025-11-09 10:21
自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

自回归科学基座模型 BigBang-Proton,提出实现 AGI 的新路线

近日,专注于研发物质世界基座模型的公司超越对称(上海)技术有限公司(超对称)发布了新版基座模型 BigBang-Proton,成功实现多个真实世界的专业学科问题与 LLM 的统一预训练和推理,挑战了 Sam Altman 和主流的 AGI 技术路线。

来自主题: AI技术研报
9193 点击    2025-11-07 15:03